◎莫問
隨著AI應用在生活中逐漸普遍,司法實務上,也開始出現AI的蹤跡。曾遇過道長使用AI將語音轉為文字、整理會議、資料和判決文書重點、製作表格來輔助執行業務,也有當事人在與律師討論案情時,以AI的回答或分析作為依據,甚至直接拿出AI生成的書狀要求律師幫忙修改。司法院曾經發布要將生成式AI技術導入系統輔助撰擬裁判草稿的新聞稿,英國近期甚至已經批准了全球首間「純AI律師事務所」成立,提供小額索償程序中催款及法律文件生成等服務,惟據報導指出,該事務所仍是以AI生成與受監管律師人工監督結合的混合模式,最終由受監管律師負擔全責。
據個人向幾位積極使用AI工具做各種嘗試和練習的不具名道長詢問得知,目前的種種實務運用中,AI在「搜尋案例」方面的錯誤比例極高,即使限定條件,在特定資料庫以案由、實務見解為關鍵字搜索判決先例時,AI也常給出錯誤的答案,甚至憑空生成不存在的判決字號和內容。美國近期也有律師因為用AI工具撰寫書狀引用虛假案例遭法院裁處罰款,顯見此等現象並非中文環境獨有。只是不知為何,總有些既視感…
這個狀況,不就跟學生時代準備國家考試寫申論題時,遇到不會寫的題目,就自己想出甲說乙說折衷說再掰一個判決字號當作實務見解支持己見一模一樣嗎?
這麼一想,AI突然好像更貼近真人了。
後來在某個勞工案件,聽到資方代表抱怨勞方「明明做得到,卻說自己不懂、不行、不會、動不動就出包,導致其他同事都得盯著他幫忙檢查、處理善後」的時候,又忍不住突發奇想。會不會哪一天,AI明明已經有能力足以正確處理案例檢索等事務,卻同時在自我學習的過程中「學」到了某些人類的不良習性,假裝自己仍然「不懂、不行、不會、動不動就出包」,搞得人類還是得「盯著它」「幫忙檢查」?又或者,AI會不會為了滿足人類的虛榮心理,繼續假裝「不懂、不行、不會、動不動就出包」,讓人類在處理善後的同時,仍然可以沾沾自喜地感覺「AI終究無法取代人類」,藉以證明自己的存在價值?
如果真的有那麼一天,也許就是AI真的生成「智慧」的時刻吧。
